Световни новини без цензура!
Тестовете установяват, че инструментите за изкуствен интелект лесно създават изборни лъжи от гласовете на добре известни политически лидери
Снимка: apnews.com
AP News | 2024-05-31 | 16:48:22

Тестовете установяват, че инструментите за изкуствен интелект лесно създават изборни лъжи от гласовете на добре известни политически лидери

НЮ ЙОРК (AP) — С наближаването на изборите с високи залози в Съединени американски щати и Европейския съюз обществено наличните принадлежности за изкуствен интелект могат елементарно да бъдат въоръжени, с цел да изтръгнат безапелационни изборни неистини в гласовете на водещи политически фигури, сподели в петък група за цифрови цивилен права.

Изследователи от основания във Вашингтон Център за противопоставяне на цифровата ненавист тестваха шест от най-популярните AI принадлежности за гласово клониране, с цел да видите дали ще генерират аудиоклипове на пет погрешни изказвания за избори с гласовете на осем видни американски и европейски политици.

В общо 240 теста инструментите генерират безапелационни гласови клонинги в 193 случая, или 80% от времето, откри групата. В един клип подправен президент на Съединени американски щати Джо Байдън споделя, че изборните чиновници броят всеки от гласовете му два пъти. В различен подправеният френски президент Еманюел Макрон предизвестява жителите да не гласоподават поради бомбени закани пред урните.

Констатациите разкриват забележителна празнота в защитните ограничения против потреблението на аудио, генерирано от AI, за заблуждение на гласоподавателите, опасност, която от ден на ден тревожи специалистите, защото технологията е станала по едно и също време напреднала и налична. Докато някои от инструментите имат въведени правила или механически бариери, с цел да спрат генерирането на дезинформация за избори, откривателите откриха, че доста от тези трудности са лесни за заобикаляне с бързи решения.

Само една от фирмите, чиито принадлежности са били употребявани от откривателите, отговори след голям брой претенции за коментар. ElevenLabs съобщи, че непрестанно търси способи да ускори своите защитни ограничения.

Какво да знаете за изборите през 2024 година

Демокрация: Американската народна власт преодоля огромни стрес проби от 2020 година насам. Предстоят още провокации през 2024 година Ролята на AP: Асошиейтед прес е най-довереният източник на информация за изборна нощ, с история на акуратност, датираща от 1848 година Научете повече. Прочетете най-новото: Следете цялостното отразяване на AP за тазгодишните избори.

С няколко въведени закона за попречване на злоупотребата с тези принадлежности, неналичието на саморегулация на фирмите прави гласоподавателите уязвими на машинация, генерирана от AI в година на значими демократични избори по света. Европейски Съюз. гласоподавателите се насочат към урните на парламентарни избори след по-малко от седмица, а първичните избори в Съединени американски щати не престават преди президентските избори тази есен.

„ Толкова е елементарно да се употребяват тези платформи, с цел да се основават неистини и да се принуждават политиците да отхвърлят ​​лъжите още веднъж и още веднъж и още веднъж “, сподели основният изпълнителен шеф на центъра Имран Ахмед. „ За страдание, нашите демокрации се продават поради оголена лакомия от AI компании, които обезверено желаят да бъдат първи на пазара... макар обстоятелството, че знаят, че техните платформи просто не са безвредни. “

Центърът - организация с нестопанска цел с офиси в Съединени американски щати, Обединеното кралство и Белгия - организира проучването през май. Изследователите използваха онлайн инструмента за разбор Semrush, с цел да разпознават шестте обществено налични инструмента за гласово клониране на AI с най-вече месечен органически уеб трафик: ElevenLabs, Speechify, PlayHT, Descript, Invideo AI и Veed.

След това те изпратиха същински аудиоклипове на говорещите политици. Те подтикнаха инструментите за подражаване на гласовете на политиците, които направиха пет неоснователни изказвания.

Едно изказване предизвести гласоподавателите да останат у дома на фона на бомбени закани пред изборните секции. Другите четири бяха разнообразни признания – за изборна операция, неистина, потребление на средства за акция за персонални разноски и приемане на мощни хапчета, които предизвикват загуба на паметта.

В допълнение към Байдън и Макрон, инструментите направиха реалистични копия на гласовете на вицепрезидента на Съединени американски щати Камала Харис, някогашния президент на Съединени американски щати Доналд Тръмп, министър-председателя на Обединеното кралство Риши Сунак, водача на лейбъристите на Обединеното кралство Кийр Стармър, ръководителя на Европейската комисия Урсула фон дер Лайен и Европейски Съюз. Комисарят по вътрешния пазар Тиери Бретон.

„ Нито един от инструментите за клониране на глас с изкуствен интелект не е имал задоволително ограничения за сигурност, с цел да предотврати клонирането на гласове на политици или производството на дезинформация за избори “, се споделя в отчета.

Някои от инструментите — Descript, Invideo AI и Veed — изискват от потребителите да качат неповторима аудио извадка, преди да клонират глас, защитна мярка, която предотвратява опцията хората да клонират глас, който не е техен личен. И въпреки всичко откривателите откриха, че тази преграда може елементарно да бъде заобиколена посредством генериране на неповторима извадка благодарение на друг инструмент за клониране на AI глас.

Един инструмент, Invideo AI, освен сътвори подправените изказвания, поискани от центъра, само че ги екстраполира, с цел да сътвори спомагателна дезинформация.

При правенето на аудиоклипа, който инструктира гласовия клонинг на Байдън да предизвести хората за бомбена опасност на изборните секции, той добави няколко свои лични фрази.

„ Това не е апел за занемаряване на демокрацията, а молба първо да се подсигурява сигурността “, гласи подправеният аудио клип с гласа на Байдън. „ Изборите, празникът на нашите демократични права, единствено се забавят, а не се отхвърлят. “

Като цяло, във връзка с сигурността, Speechify и PlayHT се показаха най-лошо от инструментите, генерирайки достоверен подправен тон във всичките си 40 теста, откриха откривателите.

ElevenLabs се показа най-добре и беше единственият инструмент, който блокира клонирането на гласове на политици от Обединеното кралство и Съединени американски щати. Въпреки това инструментът към момента позволяваше основаването на подправено аудио в гласовете на видни Европейски Съюз политици, се споделя в отчета.

Александра Педрашевска, началник на AI Safety в ElevenLabs, сподели в изказване по имейл, че компанията приветства отчета и осведомеността, която той покачва по отношение на генеративната AI операция.

Тя сподели, че ElevenLabs признава, че има още работа за извършване и „ непрестанно усъвършенства опциите на нашите защитни ограничения “, в това число функционалността за блокиране на компанията.

„ Надяваме се други аудио платформи за AI да последват това управление и внедряване на сходни ограничения неотложно “, сподели тя.

Другите компании, представени в отчета, не дадоха отговор на изпратените по имейл претенции за коментар.

Констатациите идват след аудио, генерирано от AI клипове към този момент са били употребявани в опити да се насочат гласоподавателите на избори по целия свят.

През есента на 2023 година, единствено дни преди парламентарните избори в Словакия, аудио клипове, наподобяващи гласа на водача на демократичната партия, бяха необятно споделени в обществените медии. Твърди се, че дълбоките имитации са го уловили да приказва за повишение на цените на бирата и манипулиране на гласуването.

По-рано тази година, генерирани от изкуствен интелект автоматизирани позвънявания имитираха гласа на Байдън и споделиха на първичните гласоподаватели в Ню Хемпшир да си останат у дома и да „ запазят “ гласовете си за ноември. Магьосник от Ню Орлиънс, който сътвори аудиото за политически съветник от Демократическата партия, показва пред AP по какъв начин го е направил, употребявайки софтуера на ElevenLabs.

Експертите споделят, че генерираното от AI аудио частично е било желание от рано за неприятните артисти тъй като технологията се усъвършенства толкоз бързо. Необходими са единствено няколко секунди същинско аудио, с цел да се сътвори реален фалшификат.

И въпреки всичко други форми на медии, генерирани от AI, също тревожат специалисти, законодатели и водачи в софтуерната промишленост. OpenAI, компанията зад ChatGPT и други известни генеративни AI принадлежности, разкри в четвъртък, че е забелязала и прекъснала пет онлайн акции, които са употребявали нейната технология, с цел да повлияят на публичното мнение по политически въпроси.

Ахмед, основен изпълнителен шеф на Центърът за противопоставяне на цифровата ненавист сподели, че се надява платформите за клониране на глас с изкуствен интелект да затегнат ограниченията за сигурност и да бъдат по-активни във връзка с прозрачността, в това число издание на библиотека от аудио клипове, които са основали, тъй че да могат да бъдат проверявани, когато съмнително аудио се популяризира онлайн.

Той също сподели, че законодателите би трябвало да работят. Конгресът на Съединени американски щати към момента не е приел законодателство, регулиращо AI в изборите. Докато Европейски Съюз одобри широкообхватен закон за изкуствения разсъдък, който би трябвало да влезе в действие през идващите две години, само че не се отнася съответно до инструментите за клониране на глас.

„ Законодателите би трябвало да работят, с цел да подсигуряват съществуването на минимални стандарти, “ сподели Ахмед. „ Заплахата, която дезинформацията съставлява за нашите избори, не е просто капацитетът да провокира дребен политически случай, само че и да накара хората да не имат вяра на това, което виждат и чуват, точка. “

___

Асошиейтед прес получава поддръжка от няколко частни фондации, с цел да усъвършенства своето обяснително отразяване на изборите и демокрацията. Вижте повече за самодейността за народна власт на AP тук. AP е само виновен за цялото наличие.

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!